EvoClass
AI012
大規模言語モデルの深層分析
主流の大規模言語モデルの事例と展開戦略
学習目標
- 分析するエンコーダーのみ(BERT)、デコーダーのみ(GPT)、エンコーダー・デコーダー型(T5)のアーキテクチャ間の構造的差異を分析する。
- 説明する3段階の学習プロセス、すなわち事前学習(ベースモデル)、指示チューニング(SFT)、および整合性調整(RLHF/PPO)を説明する。
- 比較するGPT、Llama、Qwen、DeepSeekなどを含む主要な大規模言語モデルのパフォーマンス、スケーリング則、アーキテクチャの革新点を比較する。